Introducing mall for R...and Python
我们很自豪地推出 {mall}。借助 {mall},您可以使用本地 LLM 在数据框架中运行 NLP 操作。(情绪、摘要、翻译等)。{mall} 已同时发布到 CRAN 和 PyPi(作为 Polars 的扩展)。
我们很高兴推出 Keras R 包的下一个版本 {keras3}。 {keras3} 是对 {keras} 的彻底重建,保留了原版广受欢迎的功能,同时根据过去几年收集的宝贵见解改进和简化了 API。
直接在 RStudio 中与 Github Copilot 和 OpenAI 的 GPT(ChatGPT)模型交互。`chattr` Shiny 插件让您可以轻松地与这些和其他大型语言模型 (LLM) 进行交互。
Hugging Face 迅速成为一个非常受欢迎的平台,用于构建、共享和协作深度学习应用程序。我们致力于将 Torch for R 生态系统与 Hugging Face 工具集成,允许用户从他们的平台加载和执行语言模型。
Understanding LoRA with a minimal example
LoRA(低秩自适应)是一种用于微调深度学习模型的新技术,它通过减少可训练参数的数量并实现高效的任务切换来工作。在这篇博文中,我们将在一个非常小的 Torch 示例中讨论 LoRA 背后的关键思想。
从头开始实现语言模型可以说是准确了解其引擎工作原理的最佳方式。在这里,我们使用 torch 来编码 GPT-2,这是原始 GPT 的直接后继者。最后,您将处理一个 R 原生模型,该模型可以直接使用 Hugging Face 的预训练 GPT-2 模型权重。
What are Large Language Models? What are they not?
这是一篇关于大型语言模型 (LLM) 的高级介绍性文章,大型语言模型是支持非常流行的聊天机器人以及其他自然语言处理 (NLP) 应用程序的核心技术。它面向普通读者,可能具有一些技术和/或科学背景,但不要求读者具备深度学习或 NLP 方面的知识。在了解了主要模型成分、训练工作流程和输出生成机制之后,我们还讨论了这些模型不是什么。
torch v0.11.0 现已在 CRAN 上发布。此版本大大增强了对执行 JIT 操作的支持。我们还修改了模型参数的加载,并增加了一些生活质量改进,例如支持临时修改默认 torch 设备、支持将数据类型指定为字符串等等。
LLaMA in R with Keras and TensorFlow
使用 TensorFlow 和 Keras 在 R 中实现和演示大型语言模型 LLaMA。
Group-equivariant neural networks with escnn
Escnn 是基于 PyTorch 构建的库,它本着几何深度学习的精神,为设计和训练组等变神经网络提供了一个高级接口。这篇文章介绍了重要的数学概念、库的关键参与者以及库的基本用途。
torch v0.10.0 现已在 CRAN 上发布。此版本将底层 LibTorch 升级到 1.13.1,并增加了对自动混合精度的支持。作为一项实验性功能,我们现在还支持预构建的二进制文件,因此您可以安装 torch,而无需处理 CUDA 安装。
De-noising Diffusion with torch
目前,在生成式深度学习中,似乎没有其他方法能胜过扩散模型系列。 你想亲自尝试一下吗? 如果是这样,我们的去噪扩散的 torch 实现提供了一个易于使用、易于配置的界面。
Deep Learning and Scientific Computing with R torch: the book
请允许我们介绍使用 R torch 进行深度学习和科学计算。 本书今天以电子书格式发布,可在线免费获取,首先介绍 torch 基础知识。 从那里开始,它转向各种深度学习用例。 最后,它展示了如何将 torch 用于更一般的主题,例如矩阵计算和傅里叶变换。
Implementing rotation equivariance: Group-equivariant CNN from scratch
我们编写了一个简单的组等变卷积神经网络 (GCNN),它与旋转等变。世界可能颠倒了,但网络会知道。
Upside down, a cat's still a cat: Evolving image recognition with Geometric Deep Learning
在关于组等变卷积神经网络 (GCNN) 的系列文章的第一篇中,我们将介绍主要参与者 — 组 — 和概念(等变)。通过 GCNN,我们终于重新讨论了几何深度学习这一主题,这是一种原则性、数学驱动的神经网络方法,其范围和影响力一直在不断扩大。